문서의 임의 삭제는 제재 대상으로, 문서를 삭제하려면 삭제 토론을 진행해야 합니다. 문서 보기문서 삭제토론 그래픽 카드 (문단 편집) == 크기와 전력 소모의 역행 == [[https://www.dogdrip.net/dvs/c/19/11/04/gcm/2dc4a182b7de7a71da4793c4f4795ba5.mp4|움짤로 보는 그래픽 카드의 변천사]], [[https://youtu.be/_MHhF8wteBk?t=422|RTX 3090 FE 크기 비교]] 컴퓨터를 구성하는 부품 중 유일하게 기술이 발전할수록 크기와 전력 소모도 커지는 장치이다. 이제 어지간한 일반형 크기의 메인스트림 그래픽 카드는 방열판과 팬으로 인해 2~3개의 슬롯을 차지하고 6핀 혹은 8핀 케이블 1~2개를 요구하며, 최상위 라인업의 경우에는 슬롯 4개, 6/8핀 3개(혹은 신형 단자인 16핀 단자)를 먹기까지 한다. 그 열을 케이스 내부에 뿜어대는 걸 감당 못해 [[https://quasarzone.com/bbs/qf_vga/views/3701340|케이스 옆판을 방충망으로 바꾸기도 한다.]] 그래픽 카드가 점점 커져서 길이도 길어진 탓에 하드디스크 베이에 막히거나 케이스의 전후폭이 좁아 좋은 그래픽 카드가 있는데 장착을 못 하거나, 베이를 찢어서 억지로 장착해야 하는 상황[* [[컴퓨터 본체 갤러리]]에서는 이런 이유로 컴갤빌런에 박제되면 [[울버린(마블 코믹스)|울버린]]이라고 부른다. 비단 이것 뿐만이 아니라, 케이스의 일부를 억지로 찢으면 다 울버린이라 부른다.]이 벌어지기도 해서 케이스를 고를 때 그래픽 카드의 길이도 고려 대상이 되었다. 그리고 커지면 커질수록 무게 또한 무거워지기 때문에 메인보드 기판만으로는 그 무게를 견디지 못해 케이스에 별도의 나사를 이용해 고정시키지만, 무게가 무거운 제품은 나사로 고정을 시켜도 앞 부분이 휘어 접촉 불량을 일으키고 심하면 PCI-Express 16x 슬롯을 휘게 만들고, 장기적으로는 VRAM 접합부가 떨어져나가는 문제가 발생 할 수 있기 때문에 필수적으로 지지대를 장착해야만 하는 시대가 되었다. 이를 막기 위해 거추장스럽지만 어쩔 수 없이 지지대 역할을 할 수 있는 물건을 넣어 줘야 한다. 이 때문에 전용 지지대 제품이 나오는 지경에 이르렀다. 백플레이트가 장착이 되어 나오는 제품도 발매되고, 메인보드가 그래픽 카드의 무게를 버티지 못해 PCI 슬롯 뒷면에 추가 보강을 할 지경까지 갔다. 그걸로도 모자라 라이저케이블을 이용해 그래픽 카드를 메인보드에서 이격시키기도 할 정도다. 나무젓가락을 적당히 잘라서 지지문제를 해결해버리는 경우도 있다. 전력 소모가 커지다 보니 2006년에 '그래픽 카드 전용 파워 서플라이' ([[http://www.bodnara.co.kr/bbs/article.html?num=56020|예시 #1]] [[https://kbench.com/?q=node/59377|예시#2]])라는 것이 나온 적도 있었다. 그래픽 카드는 PCI-E 를 통해서 전원을 공급받고, 그래도 모자라는 전력을 보조 전원을 통해서 공급받는다. 이 파워 서플라이는 보조 전원을 지원해 주는 역할을 한다. 하지만, 기본 파워 서플라이의 용량이 너무 작으면 이런 파워 서플라이를 추가하더라도 그래픽 카드 구동이 안된다는 치명적인 단점이 있었다. 현재는 대용량 파워서플라이가 대중화됨에 따라 이런 제품들은 단종되었으나, 이 추세가 계속 될 경우 이러한 제품이 다시 나오게 될 가능성을 배제 할 수 없다. 이미 [[HTPC]]의 경우 화면 출력에 쓰는 내장 그래픽의 성능도 게임만 안 돌리면 충분히 영화 및 인터넷에 쓸 만할 정도까지 올라가서 퍼포먼스급 그래픽 카드 수준, 더 나아가 [[스틱 PC]]라는 제품도 있을 정도로 어마어마하게 작은 크기의 HTPC가 나오는 수준이다. 그래픽 카드의 크기가 계속 커지는 이유는 그래픽 카드의 주요 부품인 [[GPU]]와 그래픽 메모리 때문이다. GPU도 [[CPU]]와 마찬가지로 공정 미세화가 진행되고 있지만, 공정이 미세화된 만큼 코어를 더 때려박아 결국 칩의 크기는 제자리걸음을 걷고 있다. 이는 GPU가 [[SIMD]] 구조이기 때문인데, 코어만 늘린다고 능사가 아닌 CPU와 달리 GPU는 [[다다익선|코어를 때려박으면 때려박는 만큼 성능 향상이 된다]]. 2016년 기준 NVIDIA/AMD 양사에서 나온 GPU중 가장 코어 수가 적은 GPU가 라데온 RX 460에 사용된 Polaris 11인데, 이 GPU의 스트림 프로세서 수는 무려 1024개이다.[* GPU에서는 코어를 스트림 프로세서 또는 통합 셰이더라고 부른다. NVIDIA에서는 [[CUDA]] 코어라고 부르지만 기본적으로 동일한 의미이다.] 그러한 이유로 아무리 공정 미세화를 시키고 저전력 설계를 한다 해도 칩 면적은 넓어지고 발열과 소비전력은 커진다. 이러한 GPU의 고발열화/고전력화가 가장 절정에 달했던 시절은 2010년 페르미 아키텍처 기반 GPU 중 GF100을 사용한 그래픽 카드. 지포스 GTX 480, 470, 465가 해당된다.[* 초기 페르미 아키텍처의 고발열/고전력화는 TSMC 탓도 컸다. 수율이 너무 심각해 양품 자체를 거의 뽑지 못했고, 그마저도 엄청난 누설전류로 효율성이 떨어졌다.] 테슬라 아키텍처 기반의 GT200을 사용한 지포스 GTX 280이 거대한 칩 면적에 TDP 200W를 훌쩍 넘더니 GTX 480에서 가히 정점을 찍게 된다. 이후엔 각 세대마다 TDP 250W급의 그래픽 카드가 매우 당연한 것처럼 쏟아져 나왔으며, 웬만한 메인스트림 그래픽 카드도 기본적으로 TDP 150W 정도는 깔고 들어갔다. 현재 VRAM으로 사용 중인 GDDR은 일반 DDR보다 훨씬 넓은 대역폭을 가지지만 발열과 전력 소모도 심해 GDDR4부터는 아예 램에 방열판을 안 붙일 수가 없는 수준이 되었다. 다만 대역폭 가지고 GDDR이 DDR을 대체할 수는 없다. 어차피 DRAM 자체의 속도란 게 한계가 뻔하기 때문에 대역폭이 늘어난 만큼 램타이밍이 늘어진 게 GDDR이라, 레이턴시는 큰 차이가 없다. 괜히 CPU용으로 GDDR 썼다간 성능 이득도 거의 없이 원가만 오른다. 16년도 현재도 GDDR로 DDR은 대체한 녀석은 게임 콘솔, 그것도 APU에 내장된 GPU의 성능을 뽑아낼 목적으로 채택한 PS4/PS4 프로밖에 없다는 게 명백한 증거. 다만 전성비로만 따지면 DDR보다 GDDR이 더 좋다. 이렇게 뜨끈뜨끈하고 전기도 잘 드시는 분을 8개 16개씩 붙이기도 하고, 1,300만 원짜리 RTX 6000 Ada에는 칩이 무려 24개씩이나 달려 나오니 크기가 작아질래야 작아질 수가 없고 전력 소모량이 높아지니 보조 전원 케이블도 적게는 6핀 1개, 많게는 8핀 3개 이런 식으로 덕지덕지 붙어야 된다.[* 다만 ATX 3.0 규격에서 16핀 보조전원이 추가됨에 따라 이 문제는 차차 해결될 것으로 보인다.] 여기에 GPU 자체도 효율성은 높아지고 있지만 그 효율성을 상회할 정도로 성능 향상 폭이 커지므로 역시 전력을 잡아먹는 주원인을 제공한다. 근본적으로는 GPU의 전력소모량 문제가 해결되어야 길이 문제와 크기 문제도 동시에 해결이 가능할 것이다. 상기 예를 들었던 Fury X나 Nano의 경우도 전자의 경우 수랭쿨러를 이용했다는 점, 후자의 경우는 풀칩 Fury 중에서도 전압과 동작 속도를 낮추어 싱글 팬과 짧은 기판에 대응하게 했다는 점을 간과해서는 안 된다. 실제 컷칩 퓨리의 경우는 기존 200 시리즈와 크게 다르지 않은 거대한 쿨러/방열판을 자랑한다. 또한 HBM이 고클럭화될 경우 기존 GDDR보다 높은 전력소모량 및 발열량을 보인다는 연구결과도 있기에 더욱 신중해질 필요가 있다. (이는 위의 GPU의 고발열화 원인과 같은 얘기다. 간단한 예로 같은 성능에서 전력을 35% 덜 먹는다고 하면 꽤 큰 차이지만, 성능을 두 배로 올리면 결국 전력을 30% 더 먹는 결과가 나온다. 또한 현재의 반도체 공정이 기존의 공정과는 다르게 스케일링되는 만큼 전력 소모량이 줄지 않아 크기는 줄어들지만 면적당 전력 소모량과 발열량은 계속해서 커지고 있다. 현재의 그래픽 카드는 위와 같은 성능 상의 발전뿐만 아니라 컴퓨터 튜닝의 한 요소로도 발전하고 있다. 그래픽 카드의 쿨러의 심미적 측면이 강조되면서 개성있는 쿨러 디자인이 제안되기도 하고, PCB 자체를 특별한 색으로 제조하여 컴퓨터 튜너들의 관심을 얻기도 하고 있다. 이러한 심미적인 요소들은 한국에서도 큰 호응을 받고 있으며, 특히 일부 컴퓨터 관련 커뮤니티를 중심으로 이에 대한 사용자들의 활동이 이루어지고 있다. 다행스럽게도 2017년 기준으로 최신 그래픽 카드 자체 크기는 증가가 아닌 정체 단계에 접어들었다. 소비전력도 보조전원 6핀 단자 하나만 요구하는 등 예전에 비해 확실히 많이 작아졌다. 물론 쿨러 때문에 여전히 크긴 하지만, 라데온 프로의 경우 슬롯 한 칸만 차지할 정도로 작아졌다. 일반 그래픽 카드도 아니고 워크스테이션 컴퓨터에 쓰이는 그래픽 카드다. 기본적으로 쿨러 때문에 슬롯을 2칸[* 일부 고가 모델은 3칸을 먹는 경우도 있다.]씩 차지하는 경우가 대부분이기 때문에 아무리 그래픽 카드 자체가 작아져도 냉각 때문에 그에 걸맞은 쿨러가 필요하다. 전력 소비는 기존 세대에 비해 많이 떨어지긴 했다. 2015년부터 TSV(Through Silicon Via)를 활용한 [[HBM]]이라는 새로운 구조의 그래픽 메모리가 도입되어 지속적으로 대형화되던 그래픽 카드의 문제에 변화가 일어날 것으로 보인다. HBM은 메모리를 층층이 쌓아올린 구조인데, 클럭은 감소하지만 I/O 핀이 크게 증가해 HBM1 기준 대역폭은 GDDR5를 상회하고, 전력 소모량도 동일 대역폭일 경우 3배 차이, 칩 크기도 동일 용량일 경우 94%가 작아진다. 실제로 라데온 RX 300 시리즈에서 피지칩을 사용한 제품군들이 HBM 메모리 도입만으로도 소형화에 상당히 가시적인 성과를 보여주었다. 이후 세대에서는 엔비디아와 AMD가 하이엔드 제품을 중심으로 좀 더 진보된 HBM 메모리를 도입할 예정이라 상위 그래픽 카드의 지나친 길이 문제가 해소될 것이 기대된다. 2021년 현재, 이 그래픽 카드 기판의 크기 문제는 엔비디아의 FE 암페어 카드에서 독자규격의 보조전원단자까지 채택해가며 HBM을 사용한 AMD의 Fury X, Vega nano에 견주는 체적의 실전압축 PCB를 선보여 제조사의 의지 여하에 따라 비싼 HBM을 사용하지않고서도 충분히 체적을 줄일 수 있음을 증명했다. 아예 컴퓨터 본체 밖에 그래픽 카드를 장착할 수 있게 해주는 확장 베이도 나와 있다. 단 expresscard/34를 통해 2.5Gbps의 속도로 데이터를 주고 받기 때문에 20% 정도 그래픽 카드 성능이 저하된다고 한다. 또는 케이스에 따라 라이저 케이블 등을 제공해 어떻게든 끼워넣을 수 있게 해주기도 한다. 이 경우에도 약간의 성능 저하는 있다. 한편, 다른 부품의 경우 [[모니터]]도 얇아지고, [[케이스(컴퓨터)|케이스]]도 작고 가벼워지고, [[하드디스크]]도 용량별 무게가 줄어들고 있다. 크기 자체는 3.5인치 베이나 2.5인치 베이에 맞게 나오지만 저장밀도가 높아져 같은 용량에 크기로 나누면 작아지고 있다. 그리고 80~90년대의 5.25인치 HDD가 도태되고 3.5인치 HDD가 데스크톱의 주력이 되었으며, 미니 PC나 데스크톱의 소형화 및 2.5인치 HDD의 고성능화, 그리고 SSD가 2.5인치 규격에 맞춰 나옴에 따라 데스크톱 PC(주로 소형 폼팩터)에도 2.5인치 HDD를 장착하는 것이 10년 전에 비해서는 훨씬 보편화되어 있음으로, 물리적인 크기도 줄어들어 간다고 볼 수 있다. 현재는 SSD가 [[M.2]] 단자로 이행되면서 면적은 [[자유시간]], 두께는 껌 두세장 수준까지 줄었다. 그런데 여전히 NVIDIA와 AMD 둘다 지속적으로 전력소모량이 계속해서 올라가고 있다. 다른 부품들이 크기와 전력소모가 줄어드는 추세 속에서도 그래픽 카드만 지 혼자 거꾸로 가고 있는 것이다. 심지어 공정을 매 세대마다 개선했음에도 불구하고[[https://quasarzone.com/bbs/qn_hardware/views/1097559|#]] 당장 Nvidia의 10 시리즈에서 30 시리즈로 올라갈때마다 전력소모량은 지속적으로 올라간걸 알 수 있다. 전성비만 따지면 오히려 나쁜 수준이다. 3090이 350W, 3090 Ti와 4090은 아예 450W를 먹어치우니 현재로썬 그래픽 카드의 전력 소모량이 걱정될 수 밖에 없는 처지다. 하이엔드는 물론 엔트리급 모델들 조차 전력소모량이 지속적으로 올라갔기에 앞으로도 성능 개선을 할려면 전력 소모량을 올려야 한다는 얘기다. 이미 인텔의 14나노만 해도 알다시피 성능을 올리면서 전력소모량도 올리면 미친듯한 문제를 야기한다. 물론 그래픽 카드들은 공정개선을 하기 때문에 인텔의 14나노랑 대놓고 비교할 수 없지만 전력소모량이 전혀 개선이 안된다는건 문제가 있다. 2021년 기준으로도 그래픽 카드들도 여전히 무식한 크기를 가지고 있으며 세대가 올라갈때마다 더더욱 심해졌다. 심지어 위 전력소모량 문제도 싱글 그래픽 카드 기준이라서 멀티 그래픽 카드라면 답이 없는 수준이다. ARM CEO도 현 컴퓨터 전성비에 대해 지적할 정도이며 현재 상태론 차세대 그래픽 카드들은 500W 이상으로 올라갈 여지가 생긴다. 결국 그래픽 카드에도 전성비가 해결되는 혁신이 필요한데 현재로선 두 회사 모두 개선할 의지는 없어 보이고 특히나 현 기술력으론 가능할련지 의문이다. 그래픽 카드가 지속적으로 커지고 전력소모량이 높아지는건 앞으로도 좋지 않거니와 특히 노트북 제품들이라면 더더욱 탑재하기 힘들어지므로 확실히 전성비 개선은 시급해 보인다.[* 노트북용 그래픽 카드는 이미 높은 전력소모량과 발열량으로 인해 성능을 크게 희생시켜야 겨우 사용하는 수준이며 이마저도 얇은 노트북들이라면 거의 힘든 수준이다.] 그렇지 않아도 컴퓨터 시장은 노트북이 대부분 점령했다고 보아도 과언이 아닐정도로 점유율이 높기 때문에[* 오히려 조립식 컴퓨터나 데스크탑 컴퓨터의 점유율은 매해마다 줄어들고 있다. 특히 코로나 사태때 노트북 판매량이 훨씬 높았다는 점.] 외장 그래픽 카드가 지속적으로 나쁜 전성비를 보여주면 자칫 노트북 시장이 정체될 가능성이 있다.[* 엔트리급 외장 그래픽 카드만 해도 무려 70~100W급이다.] 노트북쪽이 왜 유독 심각하냐면 CPU와 GPU 및 기타부품 모두 합쳐서 100W를 넘어가면 배터리가 높은 전력량을 감당하질 못해서 전원 케이블로 연결해서 지속적으로 전력공급하지 않는 이상 모든 부품들의 전력 소모량을 크게 낮춰야 해서 성능도 덩달아 떨어진다는 큰 단점이 있기 때문이다.[* 또한 USB-C가 충전할 수 있는 최대 전력량이 100W이므로 그 이후부턴 큼지막한 전용 전원 케이블이 필요하다.] 외장 그래픽 카드를 탑재한 모든 노트북들이 가지고 있는 문제점으로 외장 그래픽 카드의 전력 소모량이 100W를 심각하게 넘어간다면 그에 비례해서 성능이 무참하게 떨어진다. 어쩔 수 없는게 현세대의 배터리가 100W 이상을 감당하기 힘들 뿐더러 기술적 제약이 크고 특히 공항에선 아예 100W 이상의 배터리를 가진 노트북은 가지고 갈수도 없다. 추가적으로 높은 전력 소모량은 엄청난 발열로도 이어지기에 결국 노트북이라 할 수 없을정도로 크고 무거워진다. CPU만 해도 15W~45W 이상을 소모하기 때문에 결국 그래픽 카드의 전력 소모량을 50W대로 맞추지 못한다면 전력 소모량으로 인한 성능하락은 피할 수 없게 되며 배터리 성능도 당연하지만 엄청 깎일 수 밖에 없다. GTX 10 시리즈부터 외장 그래픽 카드와 크게 다를게 없는 그래픽 카드 칩을 넣기 시작했지만 그후론 전력 소모량이 크게 증가한탓에 모바일 RTX 3060만 해도 만만치 않는 수준의 전력 소모량을 보여주는데 상위 버전이라면 말할것도 없다. 이로인해 노트북들은 무게, 크기, 성능외에도 전력 소모량에도 민감하게 반응할 수 밖에 없다. 어쨌든 그래픽 카드가 유독 전력 소모량을 매세대마다 올리고 있는 상황인데 가득이나 환경 및 탄소 문제까지 겹쳐지게 됨에 따라 앞으로 무작정 전력 소모량을 더 높일순 없는 노릇이니 전성비 문제가 더 시급한 과제로 다가올 것이다. 전력 소모량이 하도 커지다 보니 [[https://www.dogdrip.net/447052202|이런 드립도]] [[https://bbs.ruliweb.com/community/board/300143/read/60778548|나오고 있다.]]저장 버튼을 클릭하면 당신이 기여한 내용을 CC-BY-NC-SA 2.0 KR으로 배포하고,기여한 문서에 대한 하이퍼링크나 URL을 이용하여 저작자 표시를 하는 것으로 충분하다는 데 동의하는 것입니다.이 동의는 철회할 수 없습니다.캡챠저장미리보기